En teoría de información, Teorema de Shannon-Hartley es un uso del teorema ruidoso de la codificación del canal al caso arquetipo de un canal de comunicaciones análogo del continuo-tiempo conforme a Ruido Gaussian. El teorema estableceShannon capacidad de canal, un límite en la cantidad máxima de datos digitales sin error (es decir, información) que puede ser excedente transmitido tal puente de comunicaciones con especificado anchura de banda en presencia de la interferencia de ruido, bajo la asunción que la energía de la señal está limitada y proceso Gaussian del ruido es caracterizada por una energía sabida o una densidad espectral de la energía. La ley se nombra después Claude Shannon y Ralph Hartley.

Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas, el teorema de Shannon-Hartley indica que la capacidad del canal C es:
external image 5da4ee296242ff06ad38fd97d1911cb3.png
external image 5da4ee296242ff06ad38fd97d1911cb3.png

donde:
  • external image 9d5ed678fe57bcca610140957afab571.png
    external image 9d5ed678fe57bcca610140957afab571.png
    es el ancho de banda del canal.
  • external image 0d61f8370cad1d412f80b84d143e1257.png
    external image 0d61f8370cad1d412f80b84d143e1257.png
    es la capacidad del canal (tasa de bits de información bit/s)
  • external image 5dbc98dcc983a70728bd082d1a47546e.png
    external image 5dbc98dcc983a70728bd082d1a47546e.png
    es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W, mW, etc.)
  • external image 8d9c307cb7f3c4a32822a51922d1ceaa.png
    external image 8d9c307cb7f3c4a32822a51922d1ceaa.png
    es la potencia del ruido presente en el canal, (mW,
    external image b72bb92668acc30b4474caff40274044.png
    external image b72bb92668acc30b4474caff40274044.png
    W, etc.) que trata de enmascarar a la señal útil.

Teorema de codificación de canales con ruido y capacidad
El desarrollo de la teoría de la información de Claude Shannon durante la Segunda Guerra Mundial estimuló el siguiente gran paso para entender qué cantidad de información se podría comunicar, sin errores y de manera fiable, a través de canales con ruido gausiano de fondo.

Fundamentado sobre las ideas de Hartley, el teorema de Shannon de la codificación de canales con ruido (1948) describe la máxima eficiencia posible de los métodos de corrección de errores versus los niveles de interferencia de ruido y corrupción de datos. La prueba del teorema muestra que un código corrector de errores construido aleatoriamente es, esencialmente, igual de bueno que el mejor código posible. El teorema se prueba con la estadística de tales códigos aleatorios.

El teorema de Shannon demuestra cómo calcular la capacidad de un canal sobre una descripción estadística del canal y establece que, dado un canal con ruido con capacidad
external image 0d61f8370cad1d412f80b84d143e1257.png
external image 0d61f8370cad1d412f80b84d143e1257.png
e información transmitida en una tasa
external image e1e1d3d40573127e9ee0480caf1283d6.png
external image e1e1d3d40573127e9ee0480caf1283d6.png
, entonces si
external image 39c45505ae1e2c615aaa0d3de2fa1a48.png
external image 39c45505ae1e2c615aaa0d3de2fa1a48.png

existe una técnica de codificación que permite que la probabilidad de error en el receptor se haga arbitrariamente pequeña. Esto significa que, teóricamente, es posible transmitir información casi sin error hasta un límite cercano a
external image 0d61f8370cad1d412f80b84d143e1257.png
external image 0d61f8370cad1d412f80b84d143e1257.png
bits por segundo.
El inverso también es importante. Si
external image 06361f1e73691ae593c595b5dc19371f.png
external image 06361f1e73691ae593c595b5dc19371f.png

la probabilidad del error en el receptor se incrementa sin límite mientras se aumente la tasa. De esta manera no se puede transmitir ninguna información útil por encima de la capacidad del canal. El teorema no trata la situación, poco frecuente, en que la tasa y la capacidad son iguales.